倫理風險主要關注的是 AI 系統可能對個人、群體或社會產生的道德層面的負面影響。選項 A、B、D 都是重要的倫理考量,如模型可能因訓練資料帶有偏見而產生歧視性輸出、AI 決策是否對所有群體都公平、AI 的應用是否尊重人的自主權等。選項 C 模型的計算效率和速度屬於技術性能或營運成本的考量,而非直接的倫理風險範疇。
當使用者與雲端生成式 AI 互動時,輸入的提示內容(可能包含個人資訊、商業秘密或其他敏感資料)通常會傳輸到服務提供商的伺服器進行處理。許多服務的條款允許提供商收集這些數據,甚至將其用於改進模型。這就構成了主要的隱私風險,即使用者的敏感資訊可能被第三方存取、儲存或利用,甚至意外洩露。其他選項涉及的是模型性能、服務可靠性或成本問題。
生成式 AI 模型是通過學習大量現有數據(文本、圖像、程式碼等)來生成新內容的。在這個過程中,模型可能會學習到受版權保護作品的風格、模式甚至具體片段,並在生成的內容中再現出來。這就可能導致生成的內容侵犯他人的版權或智慧財產權,引發法律糾紛。這是目前生成式 AI 領域一個非常重要的合規性風險。其他選項與生成式 AI 內容本身的法律風險關聯較小。
#5
★★★★
利用生成式 AI 技術製作深偽(Deepfake)影片或音訊來進行詐騙或散播不實訊息,屬於哪一類型的風險?
A
資料隱私風險
B
濫用(Misuse)與惡意使用(Malicious Use)風險
C
模型偏見風險
D
模型可靠性風險
答案解析
深偽技術利用生成式 AI 創造出高度逼真但虛假的影像或聲音。將這種技術用於詐騙(如模仿他人聲音要求匯款)或散播不實訊息(如製造假新聞影片),是典型的惡意利用 AI 技術的行為,對個人名譽、社會信任乃至國家安全都可能造成危害,屬於濫用與惡意使用的風險範疇。
#6
★★★★
在評估生成式 AI 的風險管理時,為何需要關注其輸出內容的品質與可靠性?
A
確保模型使用的演算法是最先進的。
B
避免模型產生不準確、不相關或有害的內容,影響使用者信任與應用效果。
C
降低模型的訓練成本。
D
提升模型的程式碼效率。
答案解析
生成式 AI 的核心價值在於其產生的內容。如果產生的內容品質低劣、充滿錯誤(如幻覺)、與用戶需求不相關,甚至包含有害或歧視性資訊,那麼這個 AI 應用不僅無法達到預期效果,還可能損害使用者體驗、造成誤導、引發倫理爭議,最終失去使用者的信任。因此,管理和確保輸出內容的品質與可靠性是生成式 AI風險管理的關鍵環節。
#7
★★★★★
企業或機構在導入生成式 AI 時,建立清晰的治理架構(Governance Framework)主要目的是什麼?
A
加快模型開發的速度。
B
確保 AI 的開發和使用符合法律法規、倫理標準和組織目標,並明確責任歸屬。
C
選擇最便宜的雲端服務供應商。
D
減少對外部技術顧問的依賴。
答案解析
一個有效的AI 治理架構旨在為 AI 的整個生命週期(從開發、部署到監控)提供指導原則、流程和控制機制。其主要目的包括:確保遵守相關法律法規(如隱私保護、反歧視法);符合倫理規範(如公平性、透明度);與組織的戰略目標和價值觀保持一致;並建立清晰的問責制度,明確各方在 AI 風險管理中的責任。這有助於負責任地引導 AI 發展,降低潛在風險。
#8
★★★★
生成式 AI 可能從訓練資料中學習並放大社會偏見,這可能導致什麼後果?
A
模型生成速度變慢。
B
產生對特定群體不公平或歧視性的輸出內容。
C
模型更容易被駭客攻擊。
D
模型需要更多的訓練資料。
答案解析
如果用於訓練生成式 AI 的數據反映了現實社會中存在的偏見(例如,性別刻板印象、種族歧視),模型在學習這些數據模式時,很可能也會學到這些偏見,並在其生成的內容中再現甚至放大。這會導致模型產生對某些群體不公平、帶有歧視色彩或刻板印象的輸出,造成倫理問題和社會危害。
檢索增強生成 (RAG) 是一種減輕大型語言模型產生幻覺和錯誤資訊的有效技術。它的原理是在生成回應之前,先從一個可信賴的外部知識庫(如企業內部文件、經過驗證的資料庫)中檢索相關資訊,然後將這些檢索到的資訊作為上下文提供給生成式 AI 模型,引導模型基於這些可靠資訊來生成回應,從而提高輸出的準確性和事實性。增加參數(A)或完全依賴自主學習(B)可能反而增加幻覺風險。減少事實查核(D)顯然是錯誤的。
#10
★★★★
在生成式 AI 的風險管理中,提示注入(Prompt Injection)攻擊主要威脅到哪方面?
A
模型的訓練效率。
B
模型的公平性。
C
系統的安全性,可能導致模型執行非預期或惡意的指令。
D
模型的能源消耗。
答案解析
提示注入是一種針對基於提示的 AI 系統(尤其是大型語言模型)的攻擊方式。攻擊者透過精心設計的輸入提示,試圖覆蓋或繞過開發者設定的原始指令,誘導模型執行非預期的、甚至是有害的操作,例如洩露敏感資訊、生成不當內容、或執行惡意程式碼等。這直接威脅到 AI 應用程式的安全性。
#11
★★★
如果一個生成式 AI 應用被用於商業用途,產生了與某知名品牌極度相似的標誌設計,這可能違反了什麼法律?
A
個人資料保護法
B
商標法 (Trademark Law)
C
勞動基準法
D
環境保護法
答案解析
品牌標誌(Logo)是商標法保護的對象。生成式 AI 如果產生了與已註冊商標高度相似的標誌,並用於商業活動,極有可能構成商標侵權,違反商標法的規定。這屬於生成式 AI 的法律與合規性風險。
#12
★★★
利用生成式 AI 大量自動生成釣魚郵件或社交工程訊息,是哪種風險的體現?
A
模型幻覺風險
B
資料偏見風險
C
濫用與惡意使用風險
D
合規性風險
答案解析
生成式 AI 能夠快速生成大量看似可信的文本內容,這使得網路犯罪分子可以利用它來自動化和規模化地製造釣魚郵件 (Phishing Emails) 或進行社交工程 (Social Engineering) 攻擊。這是將 AI 技術用於非法或有害目的的典型例子,屬於濫用與惡意使用風險。
#13
★★★
如果一個生成式 AI 聊天機器人在回答使用者問題時,常常給出前後矛盾或不連貫的回應,這主要反映了哪方面的風險?
雖然生成式 AI 在許多領域展現潛力,但在醫療等高風險、高精確度要求的場景,其可靠性仍然是一個主要挑戰。模型產生幻覺(不實資訊)的可能性,以及對其決策過程缺乏完全的可解釋性,使得直接將其用於關鍵診斷或治療決策存在較大風險。目前的應用多限於輔助性質,且需要人類專家進行嚴格的審核與把關。
#20
★★★
企業制定生成式 AI 使用政策(Usage Policy)時,通常會包含哪些內容以管理風險?
A
僅規定可以使用的模型類型。
B
僅要求定期更新密碼。
C
關於允許輸入的資料類型、禁止的用途、輸出內容的驗證要求等。
D
僅限制員工每天的使用時間。
答案解析
一份有效的生成式 AI 使用政策需要涵蓋多個方面以管理潛在風險。這通常包括:明確禁止輸入個人敏感資訊或公司機密;規定禁止將 AI 用於非法、歧視性或不道德的目的;要求使用者對 AI 生成的內容進行事實查核和驗證,不能直接作為最終決策依據;以及可能涉及的智慧財產權歸屬等問題。
#21
★★★
如何應對生成式 AI 可能產生的錯誤資訊或幻覺?
A
完全信任 AI 的輸出。
B
對 AI 輸出的關鍵資訊進行交叉驗證和事實查核。
C
只使用最新發布的 AI 模型。
D
增加 AI 模型的訓練時間。
答案解析
由於生成式 AI 存在產生幻覺和錯誤資訊的可能性,使用者不能完全信任其輸出,尤其是在重要決策或資訊傳播中。最關鍵的應對措施是保持批判性思維,對 AI 提供的關鍵事實、數據或聲明,務必透過可靠的外部來源進行交叉驗證和事實查核。最新模型或更長訓練時間不保證完全消除幻覺。
#22
★★★★
在生成式 AI 應用的風險管理中,為何權限控管(Access Control)很重要?
A
為了提高模型的準確率。
B
為了限制對敏感資料的存取和防止未經授權的使用。
C
為了加快資料處理速度。
D
為了簡化使用者介面。
答案解析
生成式 AI 系統可能需要存取或處理敏感的訓練資料或用戶輸入資料。有效的權限控管機制(例如,基於角色的訪問控制 RBAC)能夠確保只有經過授權的人員才能訪問特定的數據或功能,從而防止資料外洩、濫用或未經授權的操作,是保護資料安全與隱私的重要措施。
#23
★★★
生成式 AI 訓練數據的來源若不透明,可能引發哪方面的合規性擔憂?
A
模型的回應不夠人性化。
B
數據來源是否合法取得、是否侵犯版權或違反隱私規定。
C
模型的計算成本過高。
D
模型需要過多的硬體資源。
答案解析
如果生成式 AI 的訓練數據來源不明或不透明,將難以確定這些數據的取得方式是否合法,例如是否是從網路上非法抓取、是否包含了未經授權使用的受版權保護的內容、或者是否違反了個人資料保護的相關規定。這會帶來嚴重的法律與合規性風險。
#24
★★
下列何者不屬於生成式 AI 可能被惡意使用的例子?
A
大規模生成假新聞。
B
製作深偽(Deepfake)影片進行勒索。
C
使用生成式 AI輔助科學研究論文寫作。
D
自動生成惡意軟體的變種。
答案解析
惡意使用是指將技術用於非法、有害或不道德的目的。選項 A、B、D 都是生成式 AI 被惡意使用的潛在方式,可能造成社會危害或用於犯罪活動。選項 C 使用 AI 輔助合法的學術寫作(例如潤飾語句、檢查語法、整理文獻,而非直接抄襲或造假),通常被視為正面或中性的應用,不屬於惡意使用。
#25
★★★
對於生成式 AI 產生的程式碼,應採取何種態度進行風險管理?
A
完全信任並直接部署。
B
視為輔助工具,產生的程式碼需經過人類專家的審查、測試和修改。
C
僅用於非核心功能的開發。
D
禁止在任何軟體開發中使用。
答案解析
生成式 AI 產生的程式碼可能存在邏輯錯誤、安全漏洞或效能問題,也可能涉及版權(使用了受特定開源協議限制的程式碼片段)。因此,不能直接信任並部署。正確的風險管理態度是將其視為程式設計的輔助工具,開發人員應對其產生的程式碼進行仔細的審查、嚴格的測試,並根據需要進行修改和優化,確保程式碼的品質、安全性和合規性。
#26
★★★★
金融監督管理委員會發布的「金融業運用人工智慧(AI)指引」中,要求金融機構應建立全面且有效的 AI 相關風險管理機制,並整合至現行風險管理及內部控制作業流程。這主要體現了哪個核心原則?
A
促進永續發展
B
落實透明性與可解釋性
C
建立治理及問責機制
D
保護隱私及客戶權益
答案解析
根據「金融業運用人工智慧(AI)之核心原則與相關推動政策」附錄,原則一即為「建立治理及問責機制」。該原則的第二點明確指出:「金融機構應建立全面且有效的 AI 相關風險管理機制,並整合至現行風險管理及內部控制作業或流程中,且應進行定期的評估及測試。」這直接對應了題目所述的要求,強調建立完善的內部管理和控制體系以應對 AI 風險。
#27
★★★★
依據「公部門人工智慧應用參考手冊」,在使用生成式 AI 時,若模型產生了帶有性別刻板印象的回應,這觸及了哪個主要的倫理議題?
根據「金融業運用人工智慧(AI)指引」,金融機構在使用生成式 AI 時,為避免客戶資料外洩,應注意下列何種風險管控?
A
模型產生幻覺的風險。
B
不得提供未經客戶同意的個人資料給生成式 AI。
C
模型回應速度過慢的風險。
D
模型產生偏見內容的風險。
答案解析
「金融業運用人工智慧(AI)指引」第三章「保護隱私及客戶權益」中,特別強調了隱私保護。其 3. (二) 指出:「金融機構應注意運用 AI 系統可能導致之客戶資料外洩風險。以生成式 AI 之運用為例,在無適當管控機制下,金融機構人員不得向生成式 AI 提供未經客戶同意提供之資訊。」這是保護客戶隱私、防止資料外洩的關鍵措施。
#29
★★★★
依據「公部門人工智慧應用參考手冊」,下列何者是 AI 治理(Governance)的核心目的?
A
確保 AI 模型達到最高的預測準確率。
B
確保 AI 的開發與應用符合法規、倫理與社會價值,並建立問責機制。
C
加速 AI 技術的商業化進程。
D
降低 AI 系統的開發成本。
答案解析
根據手冊 4.5 AI 治理架構所述,AI 治理涉及 AI 系統生命週期中的風險管理、權益保障、資料隱私、合規性、倫理等多個層面。其核心目的在於建立一套指導原則和管理機制,確保 AI 的發展和應用是負責任的、可信賴的,符合法律、倫理和社會的期望,並能在出現問題時追溯責任。
#30
★★★
當生成式 AI 被用於內容審核時,可能因其內在偏見而產生什麼風險?
A
審核速度過慢。
B
對某些特定觀點或群體的內容進行不公平的壓制或標記。
C
無法審核圖像內容。
D
過度消耗計算資源。
答案解析
如果用於訓練內容審核模型的生成式 AI 本身帶有偏見(例如,對某些政治觀點、宗教信仰或社會群體的內容更為敏感),那麼在進行內容審核時,它可能會不公平地標記或過濾掉某些合法的言論,或者對不同群體的相似內容給予不同的處理,從而壓制言論自由或造成歧視。這屬於偏見導致的倫理風險。